#Sam Altman
OpenAI奧特曼黑料大起底,他憑什麼捏死普通人的未來?
矽谷從不相信聖人,只相信商業贏家,而山姆·奧特曼(Sam Altman)顯然深諳此道。在公眾面前,他是那個憂心忡忡警告AI可能毀滅人類的技術救世主;但在幕後,他卻被眾多共事者描繪成一個為達目的不擇手段的冷酷操盤手。《紐約客》雜誌耗時數月,對100多位直接瞭解奧特曼行事風格的身邊人進行了深度訪談。這些現任高管、前任骨幹乃至曾經的至交好友,拼湊出了一個極其割裂的真實畫像:他擁有近乎洗腦般的強大說服力,卻也極度漠視欺騙他人所帶來的後果,還操縱身邊最親近的人。2013年自殺身亡的天才程式設計師亞倫·斯沃茨(Aaron Swartz)在去世前曾向朋友警告過奧特曼。他說:“你需要明白,山姆永遠不能信任。他是個反社會者。他什麼事都做得出來。”十幾年後,OpenAI的前董事會成員、公司高管、微軟的高級主管,甚至曾經和奧特曼一起創業的夥伴,都在重複類似的判斷。一位董事會成員說得非常直接:“他不受真相的約束。他有兩種幾乎從未在同一個人身上見過的特質:第一是強烈的取悅他人的願望,在任何互動中都希望被喜歡;第二是近乎反社會般地漠視欺騙某人可能帶來的後果。”從十多年前被同行指控為不可信任,到如今將微軟等資本巨頭玩弄於股掌之間,究竟是怎樣的商業邏輯,才讓這樣一個極其危險的人握住了通往未來的最高權力?“我跟蹤了伊利亞”:天才科學家是如何被拉攏的OpenAI的起點並不像外界想的那麼光鮮。2015年,奧特曼和埃隆·馬斯克(Elon Musk)等人一起創立了這個非營利組織。他們的口號是:人工智慧可能是人類歷史上最危險的技術,所以不能讓Google這樣的商業公司獨大。OpenAI的章程明確寫著,董事會的責任是把人類安全放在公司利益之上。但問題從一開始就出現了:誰來執行這個承諾?奧特曼不是技術天才。他身邊的人都說,他缺乏編碼或機器學習方面的專業知識,甚至經常用錯基本技術術語。他的核心手腕在於極強的說服力。他當年最大的招聘目標是伊利亞·蘇茨克維(Ilya Sutskever),一位被稱為同代最有天賦的人工智慧科學家。蘇茨克維當時在Google,年薪高達600萬美元,OpenAI根本無力匹配。但奧特曼用話術洗腦,稱Google不幸的是沒有把“做正確的事”放在第一位。他後來甚至開玩笑說:“我跟蹤了伊利亞。”另一個目標是達里歐·阿莫代伊(Dario Amodei),一位頂尖的生物物理學家。奧特曼約他在印度餐廳吃晚飯,甚至故意發簡訊說“我的優步出車禍了,晚到十分鐘”,以換取阿莫代伊“希望你沒事”的同情回覆。在飯桌上,奧特曼極力附和阿莫代伊對人工智慧安全問題的擔憂,成功讓他深信這是一家專注於安全的人工智慧實驗室。正如網友(@nkulw)在看完《紐約客》長文後一針見血的評論:“這篇文章最讓人有共鳴的地方在於,它揭露了人工智慧領域高層追逐利益、謊話連篇的真面目。當十億美元擺在眼前時,幾乎沒有人堅守原則,因為他們的原則本來就很薄弱。”阿莫代伊後來花了幾年時間,詳細記錄了奧特曼的種種行為,標題就叫《我在OpenAI的經歷》,副標題標註為“私人:請勿分享”。這些超過兩百頁的筆記此前從未公開。他在裡面寫道,奧特曼的目標是建立一個“專注於安全的人工智慧實驗室”,但這或許只是一個幌子。很快,阿莫代伊就發現事情遠沒有那麼簡單。“他的話幾乎肯定是胡說八道”:安全承諾如何被一步步架空2017年,OpenAI內部開始探討轉型為營利性公司的可能。馬斯克想要多數控制權,奧特曼則堅持首席執行長的位置應該歸他。蘇茨克維給兩人發了一封長郵件,主題是“誠實的想法”。他寫道:“OpenAI的目標是讓未來變得美好,並避免AGI獨裁。所以,建立一個你可能成為獨裁者的結構是個壞主意。”馬斯克最終憤而離開。2023年,他正式起訴奧特曼和OpenAI欺詐,直言自己被“精心操縱”了。該訴訟目前仍在進行中。馬斯克走後,奧特曼順利成為首席執行長。但他開始向公司不同派系開出相互矛盾的空頭支票。他向部分研究人員保證會削弱總裁格雷格·布羅克曼(Greg Brockman)的管理權力,同時又和布羅克曼、蘇茨克維達成了秘密協議:只要另外兩人認為必要,他就主動辭職。布羅克曼後來承認這個協議存在,但辯稱是非正式的,還試圖粉飾奧特曼是“純粹的利他主義”。2019年,OpenAI與微軟洽談一筆十億美元的重磅投資。負責安全團隊的阿莫代伊向奧特曼提交了一份按重要性排序的安全要求清單,最核心的一條是“保留合併與協助條款”。該條款規定,如果別的安全項目率先跑通通用人工智慧,OpenAI必須停止競爭,轉而協助對方。按照正常的商業邏輯,這簡直是天方夜譚,但OpenAI在公眾視野裡本就不該是一家只顧利益的正常公司。奧特曼滿口答應。但在交易即將敲定時,阿莫代伊驚覺合同裡被暗中加入了一項條款,賦予了微軟阻止OpenAI進行任何合併的絕對權力。他找奧特曼當面對質,奧特曼卻矢口否認。阿莫代伊當場把條款逐字讀出來,指著白紙黑字,最後不得不找來另一位同事向奧特曼強行確認該條款的真實存在。阿莫代伊在筆記裡絕望地寫道:“OpenAI的問題就是山姆本人。”2020年,徹底心灰意冷的阿莫代伊帶領幾位核心同事離開OpenAI,創立了Anthropic,如今已成為OpenAI最致命的競爭對手之一。類似的戲碼在接下來的幾年裡反覆重演。2022年底,一位加州大學伯克利分校的博士生因為對AI安全問題深感憂慮,收到了奧特曼的招募郵件。奧特曼在信中聲稱自己極度擔心“未對齊的人工智慧”帶來的威脅,打算投入十億美元設立專項獎金,鼓勵全球學者研究此課題。這位博士生雖然“聽說過關於山姆極其圓滑的模糊謠言”,但最終還是被這套願景打動,請假加入了OpenAI。然而僅僅幾個月後,奧特曼對那個十億美元獎金絕口不提。他轉而主張成立一個內部的“超級對齊團隊”,承諾將撥給該團隊公司計算資源的20%,其實際價值遠超十億美元。官方公告甚至聳人聽聞地表示,如果對齊問題得不到解決,通用人工智慧將導致人類失去控制權甚至面臨滅絕。但殘酷的現實是,四位在該團隊工作的核心人士透露,分給他們的算力資源僅佔公司的百分之一到二。而且這些所謂的資源,大多被分配在最老舊、晶片性能最差的叢集上,真正頂級的硬體全被抽調給了那些能快速變現的賺錢業務。在被徹底架空後,該團隊於次年黯然解散,所謂的安全使命徹底淪為一句口號。“他歪曲、扭曲、重新談判、背棄協議”:連微軟都受不了了奧特曼的商業手腕不僅讓內部人士膽寒,也讓外部資本巨頭如履薄冰。微軟向OpenAI累計投入了約130億美元,是其絕對的最大金主。但多位微軟高級主管透露,儘管首席執行長薩提亞·納德拉(Satya Nadella)一直極其克制地履行投資義務,但雙方的信任基礎已岌岌可危。一位微軟高管在接受《紐約客》採訪時毫不留情地控訴:“奧特曼無時無刻不在歪曲、扭曲事實,隨時準備重新談判並背棄既定協議。”今年早些時候,OpenAI剛剛向微軟重申其作為“無狀態”模型獨家雲提供商的地位。但就在同一天,它轉頭就宣佈與亞馬遜達成一筆高達五百億美元的交易,授權亞馬遜成為其企業AI智能體平台的獨家經銷商。微軟高層認為這公然違背了此前的排他性協議,甚至明確表示願意就此對簿公堂。這位高管更是下了一個極其嚴重的論斷:“我認為奧特曼最終將被歷史定性為伯尼·麥道夫(Bernie Madoff)或薩姆·班克曼-弗裡德(Sam Bankman-Fried)那個等級的驚天騙子,雖然現在看來可能性很小,但這絕對是真實存在的隱患。”感到後怕的不只是微軟。一位曾和奧特曼共事過的科技巨頭高管直言:“他擁有著令人毛骨悚然的說服力,就像施展了絕地心靈控制術一樣,完全不在常人的道德邏輯層次裡。”有網友(@krishnanrohit)對此提出了一個極其尖銳的邏輯漏洞:如果大家都覺得他不可信,那為什麼在他被短暫解僱後,OpenAI團隊近99%的員工都以辭職相要挾,極力要求他回歸?這難道不是他深得人心的鐵證嗎?這個問題確實擊中了核心。讓我們把時間撥回2023年秋天,看看OpenAI的董事會究竟為何決定動手。“我覺得山姆不是那個應該把手指放在按鈕上的人”2023年11月,奧特曼正悠閒地在拉斯維加斯觀看F1賽車比賽。突然,他接到了一個毫無徵兆的視訊通話,蘇茨克維代表董事會冷冰冰地宣讀了一份簡短聲明:他被正式開除了。董事會在隨後發佈的公開聲明中,極其克制地表示奧特曼被免職是因為“在與董事會的溝通中未能始終如一地保持坦誠”。但這背後的深層博弈遠比幾句公關辭令要血腥得多。在爆發的前幾個月裡,蘇茨克維已開始秘密向董事會其他成員傳送預警備忘錄。他敏銳地察覺到OpenAI距離真正實現通用人工智慧已經越來越近,而他對奧特曼掌控這種終極力量的恐懼也隨之到達了頂峰。他曾極其嚴肅地對一位董事會成員說:“我認為山姆絕不是那個應該把手指放在發射按鈕上的人。”為了扳倒奧特曼,蘇茨克維和信任的同事暗中蒐集了長達70頁的內部聊天記錄與人力資原始檔。為了防止在公司監控系統中留下痕跡,他們甚至採用最原始的手機拍照方式取證,並通過“閱後即焚”的軟體向其他董事會成員傳送材料。一位收到備忘錄的成員事後回憶稱:“他當時徹底嚇壞了。”這些備忘錄字字見血,詳細指控了奧特曼如何向高管和董事會成員長期歪曲事實,並在內部安全協議上瘋狂做手腳。其中一份備忘錄開篇就寫著“山姆表現出了一貫的模式”,而排在第一項的罪名,正是“撒謊”。解僱消息猶如一顆核彈,瞬間引爆了整個矽谷。作為最大金主的微軟表示自己完全被蒙在鼓裡。納德拉用“非常震驚”來形容當時的感受,並表示根本無法從任何人那裡得到那怕一句真實的解釋。OpenAI的早期投資者、領英聯合創始人裡德·霍夫曼(Reid Hoffman)甚至開始四處打探奧特曼是否捲入了貪腐或性騷擾等明確的刑事犯罪。他事後爆粗口回憶道:“我他媽根本不知道發生了什麼,我們試圖尋找貪污或性醜聞的實錘,但什麼也沒找到。”遭遇罷免的奧特曼當天立刻飛回舊金山那套價值2700萬美元的豪宅,迅速組建了自己的“流亡指揮部”。他的死忠盟友、愛彼迎聯合創始人布萊恩·切斯基(Brian Chesky),以及矽谷以手段極其凶狠著稱的危機公關大師克里斯·萊恩(Chris Lehane)火速入局。一個豪華的律師團直接在他臥室旁的家庭辦公室裡安營紮寨,開始策劃絕地反擊。解僱事件發酵僅幾小時後,即將敲定一筆天價投資的風險投資公司Thrive果斷按下了暫停鍵,並在資本層面強硬施壓,暗示只有奧特曼官復原職,真金白銀才會到帳。緊接著,微軟高調宣佈將為奧特曼及任何願意出走的OpenAI員工設立一個直接競爭的全新項目。與此同時,一封要求奧特曼回歸的聯名公開信在公司內部瘋狂流傳,在利益與資本的雙重裹挾下,絕大多數員工都簽下了自己的名字。僅僅五天之後,一場兵不血刃的政變宣告成功,奧特曼強勢復職。而曾經試圖將他趕下台的董事會成員蘇茨克維、海倫·托納(Helen Toner)和塔莎·麥考利(Tasha McCauley)則被毫不留情地清洗出局。作為妥協的離職條件,他們要求必須對針對奧特曼的指控進行徹底調查,包括他惡意挑撥高管關係以及隱瞞深層財務糾葛等劣跡,並要求重組一個能獨立進行監督的新董事會。然而,極具諷刺意味的是,新洗牌進來的兩位核心成員——前哈佛大學校長勞倫斯·薩默斯(Lawrence Summers)和前Facebook首席技術官佈雷特·泰勒(Bret Taylor),完全是在與奧特曼進行了極其深度的利益互換後才敲定的。麥考利後來在作證時無奈地表示,她早就看穿了泰勒對奧特曼唯命是從的底色。如今,OpenAI的員工們私下裡將這段歷史戲稱為“滅霸的響指(the Blip)”。在漫威宇宙裡,這意味著角色短暫消失後,又毫髮無損地回到了原點,一切舊秩序照常運轉。網友(@MattZeitlin)敏銳地指出了這場鬧劇背後更深層的悲哀:“如果那些聲稱要打造超級智能的頂級大腦,在現實中卻總是被聰明、野心勃勃卻謊話連篇的奧特曼當猴耍,我們又憑什麼相信他們能駕馭並對齊未來的超級智能?”“他太沉迷於自己的自信了”:調查結果根本不敢形諸文字重掌大權後,奧特曼假惺惺地同意對這場“近期風波”進行所謂的獨立審查。OpenAI高調聘請了曾負責安然和世通等世紀大案內部調查的頂尖律所WilmerHale來操刀此事。但據六位元深度接觸該調查的人士爆料,這場審查從一開始就被人為切斷了所有的透明度。調查人員甚至故意避開聯絡公司內部的關鍵知情人士。一名員工在試圖主動向薩默斯和泰勒提供線索時絕望地發現,調查組只對“董事會內鬥的皮毛”感興趣,而對奧特曼長期的誠信污點選擇性失明。更多的知情人則因為缺乏最基本的匿名保護機制,而徹底放棄了發聲。一位內部員工給出了極其一針見血的定性:“所有的流程都在為一個早已內定好的結果服務,那就是宣告他無罪。”2024年3月,OpenAI官宣奧特曼徹底洗清嫌疑,但詭異的是,公司拒絕公佈任何書面調查報告。官方網站上只掛了一篇不痛不癢的八百字聲明,含糊其辭地承認內部存在“信任破裂”。參與調查的核心人員事後吐露了極其魔幻的真相:之所以沒有發佈書面報告,是因為他們根本就沒敢留下任何文字記錄,所有的調查結果僅僅以口頭形式草草匯報。接近調查的人士隱晦地指出,審查從未得出“山姆是誠信典範”的結論。但這場調查的底層邏輯早就被偷換了:他們不去查誠信問題,而是把所有精力耗在尋找明確的經濟犯罪實錘上。既然查無此證,結論自然就是他可以繼續穩坐釣魚台。面對這種黑箱操作,許多現任和前任員工感到了極度的三觀震碎。奧特曼對外堅稱,他確信所有新進董事會成員都完整聽取了口頭匯報。但一位知情人士直接撕破了偽裝:“這絕對是徹頭徹尾的謊言。”一些良知未泯的董事會成員甚至私下警告,關於調查報告誠信度的持續發酵,極有可能引發新一輪的災難性複查。在一眾控訴中,前董事會成員蘇·尹(Sue Yoon)給出的側寫最為發人深省。她認為奧特曼與其說是一個“口蜜腹劍的惡棍”,不如說是一個徹底被自我編織的神話所催眠的狂徒。他的所作所為如果放在正常的現實商業邏輯中,簡直荒謬絕倫。但他早已脫離了現實世界,他活在一個只有算力、資本與強權主導的絕對真空裡。“他不受真相的約束”:從食人族孤島到兆帝國保羅·格雷厄姆(Paul Graham)作為Y Combinator的掌門人,也是奧特曼發跡早期的重要精神導師。早在2008年奧特曼只有23歲時,格雷厄姆就為他寫下過一句極具前瞻性的判詞,這句話後來在矽谷被奉為經典:“你可以把他空降到滿是食人族的荒島上,五年後再回去看,他絕對已經成了那裡的國王。”一位網友在重溫這句評語後冷漠地跟帖稱:既然他連食人族都能搞定,那你就不該對他如今為了贏而不擇手段的吃相感到驚訝。在當年,格雷厄姆的本意是極高的商業讚美。但歷經十餘年的殘酷洗禮後,那些真正領教過奧特曼手腕的至親同事們,對這句話早已有了令人不寒而慄的全新解讀。不可迴避的是,奧特曼身上還背負著更為私密的倫理指控。他曾被親生妹妹安妮(Anne Altman)在一項民事訴訟中控告,稱其從她3歲、他12歲起,便開始對其進行長期的反覆性虐待。儘管奧特曼本人、他的母親以及他的兄弟對此全盤否認,但這無疑為他的道德底色蒙上了一層濃重的陰影。此外,極其惡劣的場外傳聞始終如影隨形。右翼名嘴塔克·卡爾森(Tucker Carlson)曾在毫無實證的情況下,在節目中公然暗示奧特曼與一名關鍵告密者的離奇死亡有著千絲萬縷的聯絡。在各大競爭對手的辦公室和頂級風投的內部局上,多位知情人士更是毫不避諱地暗示奧特曼在私生活上有著追逐未成年人的變態嗜好,這一說法在矽谷的私密圈層裡早已是公開的秘密。但嚴謹的《紐約客》編輯部耗時數月,進行了多達幾十次的深度背景調查,最終未能找到能夠支撐這一說法的實質性證據。面對這些驚天指控,奧特曼的公關回應滴水不漏:“這純粹是競爭對手毫無底線的抹黑。任何關於我與未成年人發生性關係、僱傭性工作者或參與謀殺的指控,都是百分之百的捏造。”在採訪末尾,他甚至極其圓滑地補充了一句,說自己“有點感激”雜誌社耗費如此巨大的精力“來幫他自證清白”。奧特曼大方承認自己目前的約會對像是達到法定年齡的年輕男性,而幾位與他交往過的人士也出面背書,表示這種關係沒有任何強迫與不妥。正如資深科技女戰神卡拉·斯威舍(Kara Swisher)極其辛辣的點評:“矽谷這幫掌握著天量財富的科技巨頭們私下裡玩得有多髒,遠比我聽說的關於山姆的這些花邊新聞要惡劣一百倍。只不過他恰好是一個身處舊金山的同性戀者,所以這種私人取向被對手極度武器化了而已。”“我不在乎錢,我更在乎權力”在一次極其引人注目的國會聽證會上,奧特曼曾被議員當面質問是否靠AI攫取了巨額財富。他給出的回答堪稱完美:“我在OpenAI沒有持有那怕一股股權。我做AI,純粹是因為我熱愛它。”在法律層面上,這句話至今挑不出毛病。但多位熟知內情的人士(甚至包括奧特曼的心腹)暗示,這種為了維持“聖人”人設的股權隔離,很快就會隨著資本運作被徹底打破。根據最新的法律檔案披露,總裁布羅克曼已經變相持有了公司價值約兩百億美元的巨額股份,以此類推,作為絕對核心的奧特曼,其暗中鎖定的利益份額只會是一個更加恐怖的天文數字。一位曾與他並肩作戰的前員工,向媒體拋出了奧特曼私下裡說過的一句極其可怕的真心話:“我從來不在乎錢,我真正在乎的,是凌駕於一切之上的權力。”事實正是如此。2024年,OpenAI以摧枯拉朽之勢完成了人類歷史上最大的一輪私人融資,狂攬超過1200億美元的資本彈藥。據華爾街可靠消息證實,它正在全速衝刺首次公開募股(IPO),其潛在估值劍指一兆美元。在資本狂歡的同時,奧特曼正以一種近乎瘋狂的節奏,在全球範圍內大肆圈地,瘋狂建設著海量的人工智慧基礎設施。他盯上的超級金主之一是阿聯,其背靠的AI巨頭G42手中握有高達1.5兆美元的恐怖主權財富。不僅如此,奧特曼還拋出了一個名為ChipCo的驚天計畫,企圖從海灣國家強行抽取數百億美元的巨資,在美國和中東腹地打造壟斷級的晶片代工廠與算力資料中心。就在川普重返白宮的第二天,奧特曼便迫不及待地站在羅斯福廳,高調宣佈了極其激進的“星門計畫”(Stargate)。這個耗資五千億美元的龐大合資怪獸,誓要將美國徹底改造成一個AI軍事化堡壘。回想OpenAI成立之初,對全人類做出的最鄭重承諾便是“絕對安全地實現人工智慧”。但時至今日,這種曾經被視為最高底線的安全擔憂,早已淪為矽谷資本家和華盛頓政客酒桌上的無聊笑料。2025年,副總統J·D·范斯(JD Vance)在巴黎的一場頂級人工智慧峰會上公開定調:“想在這場世紀國運之戰中勝出,我們就絕不能被所謂的安全焦慮綁住手腳。”緊隨其後,白宮人工智慧政策操盤手大衛·薩克斯(David Sacks)更是將安全顧慮斥責為可能導致美國輸掉科技冷戰的“腦殘式自殘行為”。在政商合謀的狂歡中,奧特曼毫不掩飾地表達了對川普政府鬆綁政策的讚賞,稱其為“一種極其令人耳目一新的商業變局”。在這種絕對逐利的最高指令下,OpenAI內部曾經那些專注於AI倫理與安全的制衡團隊遭遇了滅頂之災。超級對齊團隊被強行解散後,其核心領軍人物蘇茨克維和萊克雙雙負氣離職。蘇茨克維轉頭就拉起了一支名為“安全超級智能”的新軍以示抗議;而萊克則在社交平台X上留下了絕望的遺言:“在這個被利益徹底腐蝕的帝國裡,嚴苛的安全文化和制衡流程,終究還是讓位給了那些能快速變現的光鮮產品。”一直致力於評估科技安全風險的權威智庫“未來生命研究所”(諷刺的是,奧特曼早年還曾大力資助過該機構),在最新出爐的AI企業存在風險成績單上,毫不留情地給OpenAI打出了最差的F級。當然,在這場極度內卷的安全裸奔中,沒有一家巨頭是清白的:Anthropic拿了D,而老牌霸主GoogleDeepMind也不過只混到了一個極其慘淡的D-。隨著權力的極度膨脹,奧特曼對“商業底線”的公開表述也在發生著極其微妙的變異。早年間,他曾信誓旦旦地宣稱,經營一家手握人類命運的AI公司,必須接受“遠超世俗的更高誠信要求”。但如今,他的口徑已經被圓滑的公關話術徹底包裝:“我認為這個世界上有很多企業,都會對社會產生不可估量的影響,這其中必然好壞參半。”在意識到這句話過於冷血後,他又極其敷衍地補發了一份聲明,聲稱“是的,這確實需要極高的誠信水平,我每天都在被這份沉重的責任感壓得喘不過氣來”。但資本市場的旁觀者,顯然早已看穿了這套粉飾太平的說辭。網友(@kakashiiii111)在社交平台上發表了一段令人脊背發涼的總結。回顧奧特曼過去兩年的操盤軌跡,一條極其危險的行事模式已昭然若揭:持續撒謊、釋放誤導性資訊、憑空捏造活躍使用者資料。他通過向所有人許下無數根本不打算兌現的空頭支票,來死死套牢投資者和合作夥伴。這一切的終極目的只有一個:確保OpenAI這座燒錢機器始終能獲得源源不斷的流動性。如今,連老黃的輝達都被綁上了這輛瘋狂的戰車,一旦OpenAI崩盤,輝達的市值同樣會迎來海嘯。這位看透本質的讀者斷言,奧特曼極有可能就是那根最終刺破AI百年泡沫的毒針,而在矽谷的牌桌上,每個人都對這個隨時可能爆炸的籌碼心知肚明。結語把時間倒回2023年,就在那場極其凶險的逼宮大戲爆發前不久,奧特曼在一次內部分享中,無意間吐露過一段關於“人工智慧模型為何必須說謊”的極度腹黑的邏輯。他當時極其冷靜地分析道:如果你只是單純地在底層程式碼裡限制模型,要求它“對於不確定的事實絕對閉嘴”,在技術上完全可以實現。但這樣做的致命代價是,“它將徹底喪失那種讓全人類為之瘋狂痴迷的魔力”。這段冷血的技術論斷,或許正是奧特曼真實人生的最精準隱喻。他最恐怖的商業武器,從來不是敲打出一行絕妙的程式碼,而是他極其敏銳地嗅到了不同群體的慾望,並用一套無懈可擊的話術,成功給全世界洗腦,讓所有人深信:他所推銷的東西,正是人類迫切需要的解藥。他極其精準地踩中了一個極其割裂的歷史節點:一方面,普羅大眾對各種科技圈的狂轟濫炸早已麻木甚至充滿敵意;另一方面,那些真正有能力叩開通用人工智慧大門的頂級極客們,卻又因為恐懼這種力量的反噬而躑躅不前。面對這個死局,奧特曼打出了一張所有傳統推銷員都不敢打的險牌。他毫不避諱地用最極端的末日論調,向全世界渲染AI失控將如何把人類文明徹底抹除。而在成功製造了全人類的頂級恐慌後,他圖窮匕見,順理成章地將自己包裝成了那個唯一有能力在懸崖邊上把控全域的終極救世主。也許這一切從2015年那個飯局開始,就是一場極其縝密的連環局;又或者,他只是在一路狂奔中,憑藉極其可怕的商業直覺,摸索出了這套必贏的駭客帝國法則。但無論如何,現實的帳本給出了最殘酷的答案:他贏麻了。當一個極度渴望被愛,卻又對欺騙毫無愧疚感的矛盾體站上權力之巔,沒人知道AI最終會開向何方。 (網易科技)
Sam Altman表態:若政府強迫我監控國民,我寧願去坐牢!炮轟Dario:政府理應比公司有更大的權力
這兩天,大洋彼岸正在召開著華爾街乃至整個科技圈最重要的年度會議:摩根士丹利會議。大家都在關注著OpenAI CEO 究竟會說些什麼。就在今天,奧特曼的講話終於流出來了。“政府理應比私營公司擁有更大的權力。”當地時間3月5日,OpenAI 首席執行官 Sam Altman 在摩根士丹利 TMT 大會上,拋出了這句讓整個矽谷震動的“投名狀”。可以看出,經歷了這過去7天的驚心動魄與思考掙扎,這位掌舵者對於“AI終極控制權”有了公開定論。炮轟 Anthropic:別搞“獨裁式讚美”在今天的摩根士丹利會議上,Altman 面對近期 OpenAI 與國防部(DoD)深度繫結的質疑,語氣前所未有的強硬。首先,他承認了“吃相難看”。他表示,OpenAI 在 Anthropic 拒絕合同後迅速補位,確實看起來有些“投機且草率(opportunistic and sloppy)”,但他的目的是為了“降溫”而非挑起戰爭。此外,針對 Anthropic CEO 指責他通過“讚美川普”換取合同,Altman 在會上進行了反擊,稱這種將公司決策凌駕於民主合作之上的行為是不可取的。“如果公司僅僅因為不同意當權的政治領導層,就拋棄民主規範,這對社會是有害的。”“我寧願坐牢,也不會越過紅線”為了平息使用者對“老大哥在看著你”的恐懼,Altman 當眾立誓,OpenAI 接入軍事網路有三條死理:絕不用於國內大規模監控。絕不用於自主殺戮武器。最炸裂的一句:“如果政府非要強迫我利用 AI 監控美國公民,我寧願去坐牢或辭職,也絕不妥協。”Sam 這番話,無疑是在為7天前,自己深處漩渦中心,魔幻得甚至有點戲劇的一幕定性收尾。驚魂一週:引發OpenAI內部大罷工要把時間撥回到 5 天前,當時的 Altman 遠沒有今天這麼淡定。在 Anthropic 與美國防部合作協議談崩了之後,Sam Altman 一面宣佈支援 Anthropic,一面在數小時後宣佈了 OpenAI 已與國防部達成合作協議。由於該合作在 Anthropic 被列入黑名單後迅速公佈,OpenAI 受到了一些批評。同時,ChatGPT 在應用市場上的解除安裝率直線上升。網友們的反映強烈,用手機投票,最終將 Claude 推上了蘋果應用程式商店的榜首。之後的幾天裡,Altman 也承認,這件事看起來“有些投機,而且處理得不夠嚴謹”。他在週四表示,公司當時的真實意圖是緩和局勢。“情況確實很複雜,我們也在忙很多其他事情,”Altman 說。“但上週,當事情開始演變成一場衝突時,我們越來越清楚地意識到,局勢可能會變得非常糟糕。”接下來,Altman 的“投機”操作在這一週內,引發了矽谷對OpenAI的地震級反應——內部反水了: 100 名 OpenAI 員工聯名抗議,拒絕為“戰爭機器”寫程式碼。使用者出逃了: 就在 OpenAI 宣佈簽下國防部訂單後,ChatGPT 的解除安裝率激增,而對手 Claude 一夜之間沖上了蘋果 App Store 榜首!甚至到了地面示威的底部: 在舊金山總部外,人們在人行道上塗鴉追問:“你們的底線在哪裡?”在這種巨大的輿論壓力下,OpenAI 在本週一緊急修改了合同,要求美國國防部明文承諾:不得將 AI 用於非法監控和自主殺戮。Altman 的深夜Q&A:如果AGI開發是個“國有化”項目,或許會更好在上週六的一場深夜 Q&A 中,他曾流露出一種近乎“悲觀”的預感:“長期以來我一直在想,如果開發 AGI(通用人工智慧)是一個政府項目,或許會更好。”他甚至公開討論了“國有化”的可能性。為什麼? 因為他看到 Anthropic 因為拒絕合作被列入“供應鏈風險名單”;他看到《國防生產法》像達摩克利斯之劍一樣懸在科技巨頭頭上。“如果監控國民,我會辭職”如果 ChatGPT 的使用者知道該軟體也被用於監視美國境內的非美國居民,他們會作何感想?值得注意的是,對於注重隱私的開發者來說,Sam 在問答環節也帶來了一項保證:政府不會訪問你的 ChatGPT 資料。當被問及 OpenAI 是否會確保使用者資料安全,或者美國國防部是否能夠查看任何人的未標記消息時,Sam 回答說:“是的(資料是安全的)。他們絕對做不到這一點。”同時,Sam堅定地補充說,即使美政府聲稱合法,OpenAI 也絕不會進行大規模的國內監控,“因為這違反了憲法……如果真的通過憲法修正案使其合法化,我們會怎麼辦?也許我會辭職……”“我害怕人工智慧公司擁有凌駕於政府之上的權力。我也害怕政府認為大規模國內監控是可以接受的。如果國家/憲法真的變成那樣,我不知道我每天該如何來上班。”對於那些仍然擔心美軍方將如何使用該軟體的人,OpenAI 研究員員 Boaz Barak 也在 X 上回答了相關問題,並提醒大家 OpenAI 多年來一直在其所有模型中嵌入“紅線”,以應對“其他高後果風險……例如生物武器化和網路濫用”。Barak 最終指出,工具使用者群體和廣大公眾或許也能發揮作用——因為總得有人敦促立法者採取行動。“人工智慧對我們的自由構成獨特的風險,不能僅僅交給個別機構和公司來解決。我們迫切需要監管和立法來保障我們的自由。”AGI的終極控制權歸誰,Altman最後攤牌從上週末感慨“AGI 或許該歸國家管”,到今天在摩根士丹利高喊“政府應比公司更有力”,Altman 完成了一次完美的AGI掌控權的態度轉身。他很清楚,在 2026 年的政策氣候下,AI 已經不再只是個技術工具那麼簡單。他承認了自己在這件事上“投機”了,最後他也選擇了政府對於AI的掌控權。“關於人工智慧在國防領域的使用邊界,最終應由民選領導者來決定,而不是由科技公司的高管來決定。”歡迎在評論區留下大佬的看法,我們正在見證歷史。 (51CTO技術堆疊)
1.4 兆美元算力帳:OpenAI 還沒獲利,Sam Altman 怎麼付?
一家還沒獲利的公司,準備花掉1.4 兆美元。不是估值,不是估算,而是CEO Sam Altman 親口確認的承諾:我們會在很長一段時間裡,把這筆錢花完。就在最近這一周,OpenAI 動作頻繁:12月18日,推進新一輪融資談判,規模數百億美元、估值7500 億美元;12月16日,ChatGPT 上線全新圖像模型和App 生態平台;同期還發佈了AI 在科學任務上的推理能力評估報告。(Sam Altman 訪談片段: ChatGPT下一步該做什麼?)2025 年12 月19 日,Altman 在新一期播客中回應了外界最大的質疑:一個現金流還沒轉正的公司,憑什麼敢為AI 基礎設施砸下1.4兆?他給了一個出乎意料的答案:如果我們現在有兩倍算力,我們就能賺兩倍的錢。這句話背後,藏著OpenAI 對AI 商業化的全套邏輯:錢怎麼來、怎麼花、何時能獲利。而Altman 這次,把這套邏輯講得異常清楚。第一節|虧損1200億美元,為什麼越花越多?從財報數字來看,OpenAI 確實還在虧損。在訪談中,Sam Altman 承認:我們預計從現在到2028/2029年之間,將會虧損約1,200 億美元。這是什麼規模?作為對比,特斯拉從2003 年成立到2020 年首次實現年度獲利,花了17年時間。 OpenAI 預計4 年虧損1200 億,每年平均虧損300億美元。這是一場前所未有的資本押注。但Altman 並不認為這是問題。他給了一組具體資料:OpenAI 目前每天前沿模型的生成量,大約是10兆個token。這是什麼概念?一本10萬字的書大約是13萬個token,10兆token相當於每天產生7700萬本書的文字量。這個數字還在以每年3 倍的速度成長。每次基礎設施擴容,就能直接換來更高的服務能力、更快的產品上線速度和更強的付費意願。因此,這不是一家沒錢賺的公司,而是一家錢來不及賺的公司。OpenAI 的主要業務收入來自三個部分:ChatGPT 使用者訂閱;企業版API 呼叫;面向大客戶的模型客制化服務。其中最讓Altman 感到興奮的是第二項:API 成長已經超過ChatGPT本身的成長速度,企業客戶正成為OpenAI 的主要收入來源。目前,OpenAI 已擁有超過100 萬家企業使用者,透過API 將模型連接到客服、財務、搜尋、程式設計、資料分析等多個環節。更關鍵的是,這些客戶使用的不是對話,而是一個任務區塊:寫程式碼、產生分析、總結檔案。任務越多,算力消耗越大,收入越高。Altman 舉了個例子:企業員工一小時的工作,可能包括做PPT、寫指令碼、看材料。只要有70%的任務被模型完成,就是實實的降本提效。這就是OpenAI 正在算的帳:不是按人數算訂閱費,而是以任務量算力消耗;不是在意每月續費率,而是專注於每個任務背後提升多少效率。所以,他才會下判斷:訓練支出繼續成長沒關係,重要是推理收入會漲得更快。當然,這套帳也有風險:基礎建設投入已經遠超現階段營收,必須靠資本市場支援持續擴張。但Altman 相信:模型在變得更好,需求變得更大。這是典型的AI 時代獲利模式之一:先投算力,收入隨後成長。第二節|面對競爭,OpenAI的護城河是什麼?算力換收入的邏輯聽起來很美,但前提是OpenAI 必須一直跑在前面。過去一年,從DeepSeek 到Gemini,再到Claude、Mistral、Grok、Qwen,競爭對手接連出現。而OpenAI 的應對是:快速反應,持續推出新品。最近,他們連續推出三項關鍵更新:新影像模型GPT Image 1.5,上線更快,細節更準;ChatGPT開放app提交入口,打造模型版App Store;FrontierScience研究成果上線,AI成為科學家的研究助理。Altman 一直在強調一件事:真正的風險不是模型被超越,而是使用者不用它。這就是他最常說的字:黏性。他提到了幾個例子:有人把血液檢查報告丟給ChatGPT,它讀懂了,提出初步判斷,使用者去醫院確認,發現確實是之前沒查出的病症;有人開始和ChatGPT聊生活、做規劃、定行程,它能記住細節,持續跟進,並提出建議;有人用它解構複雜文件,有人用它做企業報告,有人只讓它早上列個待辦清單。這些行為有個共同點:不是測試模型好不好,而是讓它真正幫你完成任務。當你習慣了ChatGPT 記住你的偏好、理解你的表達方式、知道上次聊到那裡,切換到其他產品的成本就會變得很高。這就是ChatGPT的護城河所在:習慣、一致性和個人經驗所累積的信任感。在企業側,這個護城河變成了另一個維度:個性化能力。第一節講了企業能帶來多少收入,但問題是為什麼他們會留下來?Altman 說:企業需要的不是聰明模型,而是能連結自己資料、完成自己任務、理解自己流程的AI 工具。它可能是客服助手,也可能是法務審查器,甚至是每天早上把管理郵件歸納好再發通知的智慧助理。ChatGPT 企業版的目標,就是讓這些個人化AI 工具運作在一個平台上,連結不同部門、流程和任務。 OpenAI 面向未來建構的真正產品形態:不是大模型,而是企業級AI 入口。而在企業應用這條路上,Google 是最大的威脅。Altman 不否定Google 的實力。他甚至說:如果Google 在2023年一開始就認真對待我們,我們可能就完了。但他也指出了Google的問題:把AI 塞進搜尋框裡,不如重新設計一個AI 優先的入口。他認為,AI 不是功能外掛,而是一種全新的互動方式。你不應該再找某個東西,而應該告訴AI:這是我今天要解決的事。它聽懂了,就去做,不需要你重複輸入指令、點選圖表、切換介面。這不僅是ChatGPT 的方向,也是在定義下一代軟體是什麼。OpenAI 不急著回應每一次跑分。他們關心的是:使用者是否把ChatGPT 當作生活工具;企業是否用它接住任務流程;一家公司是否已經開始圍繞它重建工作流程。技術可以被超越,習慣很難被取代。這,就是Altman 所理解的護城河。第三節|1.4 兆要買什麼?這不是一個隨口報出的數字。在訪談中,Sam Altman 反覆講了幾次:我們計畫在未來很長一段時間內投入約1.4兆美元。前面我們拆解了收入從那裡來,那麼:這筆錢到底花在那裡?1. 這筆用來買什麼?這筆支出大致分為四類:晶片,如NVIDIA的H100、B100或自研方案,用來訓練和運作最先進的模型;資料中心,需要全新建設的AI工廠,不是傳統雲端運算中心,對頻寬、電力和散熱的要求都極高;網絡,連接全球模型推理的骨幹網絡,要確保延遲極低、吞吐極高;能耗,大量GPU同步工作,背後需要穩定且便宜的能源配套。即便如此,Altman 認為仍然不夠:我們的擴張速度已經快到,即使現在就把這些基礎設施建好,也永遠不夠用。2. 為什麼現在就要花?很多人會問,未來五年模型還在變,技術還不穩定,為什麼現在就提早花掉這麼多?Altman 說:不是我們想提早花,而是市場已經等不及了。原因有三:基礎建設周期太長一個資料中心從規劃到投入使用需要2-3年,晶片訂單要提前18個月鎖定,電力配套甚至要提前5年佈局。如果等到需求爆發再建,根本來不及。市場需求正在快速爆發從一年前到現在,OpenAI 的算力擴張了3倍,明年還要再擴3 倍。收入也跟著漲。這是一種算力先行、收入追趕、效率遞增的模式。越早買算力,越早釋放成長。更關鍵的是,競爭對手都在搶同樣的資源NVIDIA的H100、B100供不應求,資料中心的電力配額有限,優質機房更是稀缺。不提前鎖定,別人就搶走了。一句話總結:OpenAI 不是在投資未來,而是在解決現在問題。3. 回本邏輯是什麼?花了1.4兆,成本怎麼變?Altman 的判斷是:未來訓練會越來越省錢,推理也越來越快。OpenAI 的策略是:用一套訓練好的通用模型,支撐多個終端業務。訓練一次,部署多次,推理規模越大,單位成本越低。透過ChatGPT、企業API、代理系統等通道,把token 消耗轉化為真實收入。這是典型的前期重投入、後期低成本模型:先建廠,再接單。Altman 也被問到另一個爭議問題:如果模型進度放緩怎麼辦?他的回答是:「即便模型停在o1-5.2,能做的事情還遠未被挖掘。光是用好現在的模型,就足以支撐一個5000億美金的公司。如果未來模型繼續提升,回本速度只會更高。”在資本上,他認為舉債投資AI 是合理的。 OpenAI 不是靠模型會更強這件事融資,而是現在就能產生的使用量、顧客需求和token消耗。不是靠講故事,而是靠算帳。所以這筆1.4兆,表面是買晶片、買電力,本質是在提前鎖定全球AI算力的供給能力。 在科技巨頭都在爭奪AI 入口的今天,誰能提前建好基礎設施,誰能決定未來的遊戲規則。第四節|ChatGPT 的終極型態是什麼?前三節講的都是錢和算力,但最後要做什麼產品?在大多數人眼中,ChatGPT是個聊天工具。但Altman 每天用它做的,遠不止聊天:安排行程、確定見誰、規劃健身計畫。他說,ChatGPT 已經幫他做了很多他自己都沒注意到的事情。這就是OpenAI 想要的轉變:從被動回答問題的工具,變成主動幫你辦事的助理。這個轉變分三個方向:1 、從記住對話,到記住你的人生第二節提到記憶是使用者黏性的來源,但Altman 認為現在還遠遠不夠。他說:ChatGPT 的記憶能力現在還停留在GPT-2 階段。它能記住一些偏好,能保持上下文,但遠遠達不到真正理解你的水平。下一步呢?未來的AI 不只記住你說過的話,而是瞭解你沒說出口的偏好,懂你長時間的變化,甚至可以主動提醒、提問、跟進。我們對記憶的潛力還完全低估了。就算是人類最頂尖的私人助理,也不可能記住你生活中每一封郵件、每個細節。而AI 可以。2 、從被動回應,到主動處理Altman 對現有AI 互動方式並不滿意。“我不想每天發訊息、等總結、看草稿。我想直接告訴它今天要完成什麼事,能搞定的別來煩我。”這是一種完全不同的使用方式:不是你問我答,而是你交給我辦。為了實現這個目標,OpenAI 正在佈局多條產品線:Code Interpreter可以執行複雜的資料分析任務;AI瀏覽器幫使用者自動讀取網頁、理解內容、產生摘要;Agent原型可以長時間運作、自動喚起其他工具,逐步接管日常事務。關鍵是:你不用時時盯著它。3、不只是螢幕上的對話框在訪談最後,Altman 被問到關於硬體設備的問題。他沒有透露太多細節,但給了一個明確的方向:“我們未來不會只有一個設備,而是多個產品組合。這些產品要能感知你、理解你、主動服務你,而不是等你輸入命令。”這其實就是OpenAI 與硬體團隊(Jony Ive)正在推進的硬體專案。它不一定是手機,不一定有螢幕,但它會主動記錄你說的內容,透過語音或感知理解你的行為,不再讓你像用電腦一樣點開視窗、切換App。現在人們接受了聊天介面是因為它簡單、熟悉,但未來不同類型的任務,AI 應該能自己產生適合的互動方式。例如:你和它討論旅行,它自動展示地圖;你談健康計劃,它產生日曆與飲食建議;你說今天幫我規劃一下,它整合前幾天的對話和習慣,給出主動安排。從記憶、執行、再到硬體,OpenAI 要做的不只是更強的模型,更是改變AI 在人類生活中扮演的角色:從被動回答問題,變成主動協助;從通用工具,變成你的個人化助手;從你使用它,變成它代你做。未來很多人不會再單獨處理任務,而是管理一群AI 幫手。在 Altman 設想裡,ChatGPT 不再只是一個產品,而是能協調其他AI 工具的中樞系統。它會收集指令、分配任務、總結結果、決策提醒。1.4 兆,買的就是這個未來。結語|這筆帳,怎麼付?Sam Altman 給了一套完整的帳本:用算力換收入,用收入涵蓋成本。怎麼做?算力每翻倍,收入就翻倍;透過用戶粘性和個性化,確保持續收入;提前投入基礎設施,確保算力夠用;從聊天工具到AI 作業系統,擴大營收成長空間。1.4 兆聽起來很瘋狂,但拆開看,每一筆都有對應的變現路徑。能不能付得起? OpenAI 用實際成長給了答案:收入確實在跟著算力跑。至於能跑多遠,時間會證明。 (AI深度研究員)
Sam Altman 罕見認輸?OpenAI 內部信曝光:我們正經歷「艱難時刻」
一封本該躺在 OpenAI 郵件系統裡的內部信,正在 AI 圈悄然流傳。這是來自 The Information 的獨家爆料。OpenAI CEO Sam Altman 罕見地在郵件中承認:「Google最近在各方面都做得很出色。」更讓人意外的是,他用了一個語氣有點重的詞來形容當前形勢:「rough vibes」(艱難時刻)。估計我們要經歷一段艱難時刻了。the vibes out there to be rough for a bit.這應該是 ChatGPT 爆紅兩年來,Sam Altman 第一次如此直白地承認競爭對手的領先。要知道,就在一個月前,OpenAI 還在以 5000 億美元的估值、1 兆美元的 IPO 目標、ChatGPT 的 8 億周活使用者傲視群雄。一個月後的現在,Sam Altman 的措辭變成了:「我們正在快速追趕。」01|Google到底做了什麼?11 月 18 日,Google發佈了 Gemini 3 Pro。在幾乎所有的基準測試中,這個模型都碾壓了 OpenAI 的 GPT 5.1 和 Anthropic 的 Claude Sonnet 4.5。更是直接在 LMArena、WebDev Arena、LiveBench 多個大模型排行榜同時登頂。網友一致好評:「Google這是降維打擊。」甚至,就連馬斯克都在 X 上給Google CEO Sundar Pichai 發了個「Congrats」(祝賀)。Sam Altman 也公開發帖:「恭喜Google推出 Gemini 3!看起來很棒。」但不難看出,這句恭喜背後,藏著多少無奈。02|OpenAI 遇到了什麼麻煩?內部信裡,Sam Altman 特別提到了一個技術細節:「預訓練」。這是訓練大模型關鍵的一步。就像教小孩認字,你得先讓他接觸大量文字,並理解它們之間的聯絡。OpenAI 在這個環節卡住了。據知情人士透露,在訓練 GPT-5 時,OpenAI 就發現了一個問題:在小模型上有效的最佳化方法,一旦應用到大模型上就失效了。一位前 OpenAI 研究員私下說:「我們太專注於推理模型這條路了,忽視了基礎能力的提升。現在看來,這可能是個戰略失誤。」為了應對這個困境,OpenAI 正在開發一個代號為「Shallotpeat」的新模型。Shallot,青蔥;Peat,泥炭。青蔥在泥炭土里長不好,隱喻 OpenAI 要在困難的訓練環境中尋找突破。而Google恰恰在此時實現了突破。03|不只Google,還有 Anthropic如果說Google的超越讓 OpenAI 感到壓力,那麼 Anthropic 的崛起簡直是雪上加霜。這家由 OpenAI 前核心團隊創立的公司,今年實現了爆炸式增長。最新資料顯示,Anthropic 的年化收入已經達到 70 億美元,今年以來增長了 6 倍。更要命的是,在某些領域,Anthropic 甚至比 OpenAI 更強。比如程式設計。幾乎所有主流 AI 程式設計工具,如 Cursor、GitHub Copilot,都默認使用 Claude 模型。Anthropic 的 Claude Code 在推出三個月內使用量增長 10 倍,貢獻超過 5 億美元的收入。一位矽谷投資人評價:「如果說 OpenAI 是 AI 界的蘋果,那 Anthropic 就是專注企業端的微軟。他們不需要 8 億使用者,只要服務好那 30 萬家企業客戶就夠了。」而就在上周,Anthropic 剛拿到輝達和微軟的 150 億美元投資,最新估值達到 3500 億美元,幾乎翻倍。Claude 也成為了唯一同時覆蓋 AWS、Google雲、微軟 Azure 三大雲平台的 AI 模型。04|Sam Altman 的「超級智能」賭注面對這樣的局面,Sam Altman 在內部信中給出了他的應對之策:聚焦「超級智能」。他說:「讓大部分研究團隊專注於真正實現超級智能至關重要。」這是一個巨大的賭注。超級智能指全面超越人類智能的 AI。這不是寫寫程式碼、回答問題,而是能自主進行科學研究、解決人類未解難題的存在。Sam Altman 承認,這意味著 OpenAI 可能會「在當前競爭格局下暫時落後」。但他認為這是值得的。「我們不得不同時做這麼多困難的事情:最好的研究實驗室、最好的 AI 基礎設施公司、最好的 AI 產品公司。這很難,但這就是我們的使命。而且說實話,我不願意跟任何公司交換位置。」既有無奈,也有決心。結語在內部信最後,Sam Altman 說:「別因為這封信感到沮喪。我們其實做得很好,而且會繼續好下去。」聽起來在鼓舞士氣,但更像是在說服自己。歷史告訴我們,沒有永遠的王者。諾基亞手機市場份額曾超 40%,雅虎曾是網際網路代名詞,它們都覺得自己的位置無人能撼動。OpenAI 的故事遠沒有結束,但「rough vibes」已經開始。你覺得誰會贏得這場 AI 戰爭?歡迎在評論區分享你的看法。 (AI資訊Gap)
阿爾特曼:OpenAI年營收遠超過130億美元
OpenAI執行長薩姆·阿爾特曼在播客節目中回應公司財務狀況質疑,稱公司營收遠超130億美元,並表示公司正在快速成長。美東時間周六(11月1日),OpenAI執行長薩姆·阿爾特曼(Sam Altman)在一起播客節目中,反嗆了外界有關OpenAI公司財務狀況的批評。他明確表示,公司的營收「遠遠超過」130 億美元,而且還在快速成長。公司營收遠超130億美元今年10月底,在OpenAI完成了備受爭議的營利性重組,公司CEO阿爾特曼隨即公開宣布,公司已承諾投入約1.4兆美元用於基礎設施建設,相當於30吉瓦的數據中心算力。這包括與微軟、輝達等合作夥伴的交易。美東時間周六,在與投資者兼播客主持人布萊德·格斯特納(Brad Gerstner)的交流中,阿爾特曼被問及在目前年收入僅有130億美元的營收水平下,OpenAI 如何能夠承擔投資1.4兆美元的承諾。阿爾特曼回答說,「我們的實際營收遠超這個數字」。他還語氣激烈地反擊稱,懷疑者完全可以拋售他們的股票——他肯定能找到買家。他甚至表示,他巴不得讓批評者們趕緊對OpenAI下注做空——不過目前這只是假設,因為該公司尚未上市,首次公開募股(IPO)仍遙遙無期。「我很少希望自己成為一家上市公司,但有那麼一次,我真的希望我們是家上市公司,那就是當那些人寫那些荒謬的報導說OpenAI 即將倒閉的時候。我很樂意告訴他們,他們可以趕緊做空這隻股票,我也很樂意看到他們因此遭受損失。」阿爾特曼直言。阿爾特曼表示,到目前為止,OpenAI的快速發展得益於其人工智慧產品和服務的需求強勁,但要實現未來的目標,則需要達到前所未有的業務擴張速度。因此,該公司正著眼於從人工智慧雲端基礎設施、專有設備以及自動化科學研究等方面獲取新的收入來源。他認為,目前OpenAI發展的最大瓶頸在於運算能力。擔憂並非無中生有儘管阿爾特曼本人對OpenAI的營收前景信心十足,不過外界對於該公司業績壓力的擔憂也並非無中生有。據微軟在截至9月30日的季度財報中透露,其對OpenAI的權益法投資導致淨利減少31億美元。基於微軟持有OpenAI約27%的股權,這意味著OpenAI該季度淨虧損約115億美元。若考慮稅前損失和先前更高的持股比例,OpenAI的實際虧損可能超過120億美元。不過,在周六同樣參加這場播客節目的微軟執行長薩蒂亞·納德拉似乎也不擔心OpenAI的業績問題。他在節目上大力誇獎稱,OpenAI 的執行表現“令人難以置信”納德拉既是OpenAI的合夥人,也是重要投資者。他直言:“坦率地說,我所見過的OpenAI 提出的任何商業計劃,他們實施之後都沒有失敗過。(科創板日報)
GPT-5被罵上熱搜,Sam Altman急著畫餅GPT-6!
OpenAI這回真的有點尷尬了😅前幾天刷到一則新聞,OpenAI的CEO Sam Altman公開承認,今年8月發表的GPT-5反響不太行,還趕緊承諾GPT-6會有「重大升級」。說實話,看到這個消息我第一反應是:這是在給自己找台階下嗎?回想GPT-5剛發布那會兒,Altman可是信心滿滿地說這是「目前最先進的AI大語言模型」,他自己都只用GPT-5不碰其他模型。結果呢?使用者和專家們並不買帳。紐約大學教授Gary Marcus直接開砲,說GPT-5被「過度炒作」了,什麼通用人工智慧、博士級推理能力,統統沒兌現,就是換湯不換藥的升級💡更有意思的是,Altman在接受採訪時坦言,GPT-5剛上線時體驗確實差,團隊不得不緊急調整AI的「說話方式」,讓它的回覆顯得更溫暖、更友好。這不就等於承認產品沒做好就匆忙上線了嘛?這波操作讓不少鐵粉都開始懷疑:OpenAI是不是有點飄了?不過話說回來,Altman倒是沒徹底認慫。他強調現在的GPT-5已經在科學發現領域做出了「前所未有的貢獻」,暗示前期的負面評價有失公允。同時他還畫了個大餅:GPT-6會比GPT-5強很多,GPT-7又會比GPT-6強很多,反正就是一代更比一代強,OpenAI的成績單擺在那兒,大家等著瞧🚀但問題來了,這種「下一代更強」的承諾,我們聽了多少次了?每次新模型發佈前都是鋪天蓋地的宣傳,結果真用起來卻發現沒那麼神。 GPT-5的翻車就是最好的例子。用戶們期待的是顛覆性突破,而不是「稍微好一點」的漸進式更新。說到底,AI產業現在有點像手機圈,每年發新品都說「史上最強」,但真正讓人眼前一亮的創新卻越來越少。OpenAI作為行業老大,背負的期待自然更高。 GPT-5沒能打出王炸,GPT-6能不能翻身,還得看實際表現☕你覺得OpenAI這次能守住承諾嗎?還是說AI發展進入瓶頸期,再也沒有當年GPT-3到GPT-4那種跨越進步了?評論區說說你的看法,或轉發給關注AI的朋友,一起討論這波科技圈的「信任危機」! (澤問科技)
「死亡網路理論」刷屏矽谷! Reddit創辦人預警,奧特曼公開發聲
近段時間,「死亡網路理論」刷屏矽谷,OpenAI創辦人兼CEO Sam Altman、Reddit聯合創辦人Ohanian等紛紛對此發表評論。失去真實性的網絡等同於死亡。 AI生成內容正席捲社群平台,從圖片、影片到自動化評論。網路的未來不在真假之爭,而是重拾「真實」的信任與溫度。當網路被AI內容淹沒,真正由人類創作的內容日益縮減。「如今的互聯網,大部分已經死了」,近日Reddit聯合創始人Alexis Ohanian一語驚人。Reddit共同創辦人Alexis Ohanian他口中的「網路死亡」並不是指網路被關閉了,而是被鋪天蓋地的AI生成內容所淹沒,失去了真實的生命力。Ohanian所言非虛。曾經匯聚人類真實思想與交流的網絡,如今正被大量AI生成的內容所佔據:你看到的熱帖、閱讀的文章、甚至與你爭論的「網友」,都可能根本不是人類,背後或許早已是演算法與AI的「迴響」。AI生成內容的無序擴張,正在蠶食網路的真實性。旅行類大V Chris Broad在X平台上表示,「死亡網路理論」現在已成為「死亡網路現實」:每天都有普通人給我發訊息,讓我去一些根本不存在的地方,這些地方都是人們在Facebook、Instagram和Twitter相關主題帳號或頁面中提到的……這些帖子通常包含完全虛假的AI照片,下面還有機器人帳號在評論區盲目地稱讚照片。Chris Broad提醒人們要小心自己追蹤和點擊的內容。 「要知道,大多數頁面、內容以及粉絲數量,都是被嚴重人為誇大的。」網友Swarn也提到經常會刷到疑似AI生成的推文,他會透過內容中夾雜的「突然轉折、刻意堆砌的詞彙、借用的隱喻」來辨識「AI味」。Goddess預測到下一年「死亡網路理論」會越來越受到關注,所有社群媒體帳號並非都是真實的人。這股熱潮,甚至把OpenAI創辦人兼CEO Sam Altman也驚動了。Sam Altman認為「死亡網路理論」可能有一定的道理。他提到「現在的確存在著許多由大模型驅動的Twitter帳號」。這些AI生成內容的氾濫,讓Altman再度擔心「死亡網路」理論的影響。不真實,毋寧死「死亡網路」理論的起源「死亡網路理論」(DIT,Dead Internet Theory),傳遞出這樣一種核心態度:不真實,毋寧死。它認為只有真實才是網路的生命──失去真實性,等於是宣告了網路的「死亡」。2021年,用戶IlluminatiPirate在Agora Road論壇發文提到了「死亡網路理論」,這位網友對其的定義就是「大多數網路變得虛假」。伴隨著網路社會的發展,「死亡網路理論」思潮在網路論壇和社群中開始逐漸流行,背後的驅動因素正是「真實感」的逐漸喪失:現代網路帶來了花樣百出的玩法,但真實感也被玩丟了。早期網路那種有機的、使用者驅動的特性一點點消失,取而代之的是越來越依賴電腦產生的內容(資料)以維持活動和參與度。隨著生成式AI的出現,讓「死亡網路理論」獲得了更多的「現實支撐」。因為生成式AI更像人類,它們在社群媒體上被廣泛應用於放大點讚、評論和分享數據等。就連Sam Altman,這位親手讓ChatGPT風靡全球的「AI之父」,也被鋪天蓋地的「程序味兒」搞破防,他忍不住吐槽Reddit上的AI腔調(LLM-speak),認為這讓人際互動「感覺很假」。從早期互聯網,到社交媒體時代,再到生成式AI浪潮,原來那個真實的互聯網已逐漸被一個由AI主導的互聯網所取代,“技術登月”越來越多,但真實感卻越來越少了。換句話說,「死亡互聯網」理論的市場越來越大了。「死亡網路」的升級版如今,如火如荼的AI浪潮,正按下「網路死亡」的加速鍵,也帶了它的升級版本。根據Cloudflare的長期監測顯示,機器人流量約佔整體應用流量的31%左右,並在部分地區和時段階段性超越人類存取。Imperva在2025年版的《Bad Bot Report》中則指出:自動化流量在2024年已達51%,其中從事惡意活動的「壞機器人」佔比升至37%。這裡的「壞機器人」在生成式AI時代更為突出,因為它們更善於偽裝成人類行為。它們有時只是在社群媒體上產生一些空洞或胡言亂語的評論,但也可能被惡意使用,例如製造虛假的頁面瀏覽量、用戶互動和使用時長,從而造成公司業績數據的扭曲。不只活躍於社群媒體,生成式AI還在逐步接管人類表達領域。Graphite的一項數據記錄了這一里程碑時刻:2024年11月,網路上發表的AI生成文章數量超過了人類撰寫的文章數量。根據Graphite觀察,自2022年11月ChatGPT推出以來,AI生成文章數量顯著增長,但在過去一年中AI生成文章的比例保持相對穩定,這可能是因為早期AI生成文章質量不佳導致的。但隨著AI生成文章品質的提高,再加上AI生成文章的速度之高、成本之低也遠非人類可比,可以預見未來AI文章的數量還會穩定成長。這意味著,AI生成內容的數量增長不僅改變了資訊來源的結構,也正在重塑網路生態真實感的「基線」,也可能帶來AI時代「網路死亡」的升級版——模型崩潰。https://arxiv.org/pdf/2305.17493這一點在牛津大學等研究機構發表的《遞歸的詛咒(Curse of Recursion):在AI生成資料上再訓練會導致模型遺忘》論文中已經得到了理論上的證實。AI時代真正的危機是模型崩潰。在大模型使用生成資料繼續訓練(continue training)的遞歸過程中,模型會慢慢「忘記」或偏離原始人類語言分佈的某些細節,尤其是那些少見或邊緣的模式。這樣模型會逐漸失去多樣性淪為一切趨於平庸的同質化,最終出現模型崩潰(Model Collapse)。這就好像把一張照片在上一代影印件的基礎上不斷影印,其清晰度會逐漸下降,最終變成一張模糊的、缺乏細節的照片。當越來越多的AI內容成為模型的訓練數據,就可能帶來模型能力的下降,由此產生更多劣質的AI內容,這些內容再訓練出更差的AI模型,最終就是更嚴重的危機——模型崩潰。從網路的「死亡」,到模型的「崩潰」,與科技發展同步的,是「失真」的演進。讓網路更「人」一點,更「真」一點Google CEO Sundar Pichai認為搜尋引擎會被AIGC 「深刻改造」,因此AI回答與人類內容的協同將成為主流互動範式。Google CEO Sundar Pichai輝達CEO黃仁勳,提出應當把AIGC視為時代性通用技術,將無所不在地嵌入創作、工程與組織工作流程。隨著AI對於網路和人類社會的滲透,AI生成的內容將會像Sam Altman預言的那樣,不可避免地越來越多。這就帶來一個難題:如何分辨AI和人類生成的內容。隨著人類正越來越多地與AI合作,讓這一點變得更加困難。的確,一個人在工作中利用AI的方式有很多種,比如用它來搜尋,整理材料等,因此很難明確地說某項內容是AI生成的還是人類生成的。其實很多AI生成的內容,背後是人類在引導、編輯、校正。用加州大學洛杉磯分校電腦科學教授、亞馬遜網路服務副總裁Stefano Soatto的話來說,「二者之間更像是一種共生關係,而不是非此即彼。並非所有AI生成的內容都是垃圾內容。」在這種共生的關係下,用不用區分AI和人類生成的內容?Sam Altman認為,「好不好比是不是AI產出更重要」,但他也提出要有「可驗證的來源」與治理工具,以識別那些是AI生成的並提升信任。Altman認為辨識AI生成內容是為了提升對內容的信任度,他曾多次提醒不要過度信任模型,因為AI也會「自信地編造」。同樣,Anthropic CEO Dario Amodei也認為,需要科學的方法和評估體系為此來兜底,他認為雖然模型「胡說」頻率可能低於人類,但出錯方式更「出其不意」。Elon Musk也強調要用AI去檢測/溯源合成影片與深偽,在平台層面建構「內容鑑別器」。這點隨著AI技術的發展變得特別重要。近日,Sora 2上線後短時間內就有大量「以假亂真」的影片在社媒流通,YouTube、Meta正透過推出「貼標」「降權/限變現」等方式,試圖限制「AI灌水內容」的擴散。對於AI生成內容的監管也在多加碼。例如,美國政府在2025年5月19日正式推出《TAKE IT DOWN 法案》,將故意發布或威脅發布非同意的親密影像(包括AI 產生的深度偽造)定為犯罪行為。歐盟首部關於人工智慧的法規《AI法案》明確合成內容必須標示、與使用者互動需透明提示。識別AI內容是為了安全,避免AI噪聲,但即便是AI生成的內容優於人類,這種區別仍然是必須的。因為相比較好壞,真實性永遠更重要。不僅是互聯網,即使是AI時代的數位生命,本質仍然在於「真實」。在人機共生的時代,我們需要關注的重點不在於人類與AI的差異或優劣,而是如何讓AI服務人類的真實。無論未來科技如何演進,人類仍需守住那份「真實」的火種。 (新智元)